7 - Grundlagen der Informatik [ID:1514]
50 von 766 angezeigt

Ja, wunderschönen guten Nachmittag. Wenn die letzten so eingetrudelt sind, dann starten wir mit der neuen

Folionswoche für GDI. Und zwei Sachen hätte ich anzukündigen. Einmal sieht man hier wieder den

berühmten Karton mit den Folienkopien. Also es war gerade von einer Kommilitonen bei mir, die

wollte einen Gutschein einlösen, gebe ihr das Skript, sagt sie, sie möchte ihr Geld zurück und

dann stellt sich heraus, das war der Gutschein vom letzten Semester. Also falls ihr mal einen

habt von diesem Semester, den ihr eintauschen möchte, dann möge ich das jetzt möglichst beitun.

Und dann haben wir festgestellt, beim Drucken der Skripten ist der letzte Teil der Skripten nicht

mit in die Folienkopien eingeflossen. Das drucken wir nach und verteilen es dann. Da kommt dann

noch eine E-Mail, ab wann es verteilt wird und wer sich es runterladen möchte, auf der Webseite steht

die Datei dann schon. Gibt es momentan irgendwie Fragen von Ihrer Seite zur Organisation? Fleißig

am Programmieren, Midis rauf und runter? Okay, kommt noch, kommt noch. Also heute müssen wir

ein Kapitel anfangen, das nicht gerade so zu den beliebtesten gehört, weil es relativ mathematisch

ist und auch relativ tief unten im Rechner sozusagen verborgen ist. Normalerweise kriegt

man diese Probleme gar nicht zu sehen, aber die Auswirkung dieser Probleme, sie sehen schon

interne Darstellung von Zahlen, das heißt die Zahlen, die wir im Rechner haben, müssten wir

irgendwie in Nullen und Einzen umformen, bzw. in Nullen und Einzen, die im Rechner drin stehen,

dann interpretieren können. Und warum ist das so kompliziert? Als die ersten Rechenmaschinen so

um 1600 gebaut wurden, da hat man probiert das Dezimalsystem nachzubauen, das heißt diese ganzen

Zahnräder hatten dann eben entsprechend zehn Zähne passend zum Zehnersystem und einfach

festgestellt, dass es sehr, sehr schwer ist, mit der Mechanik dieses Zehnersystem nachzubilden.

Und erst dann, als man bei diesen mechanischen Rechenmaschinen auf das Zweiersystem umgestellt

hat, war es auf einmal mechanisch viel einfacher. Erstaunlicherweise ist es auch, wenn man Computer

baut, einfacher, das Dualsystem zu verwenden, anstatt das Dezimalsystem, das hat vor allen

Dingen Kostengründe, die Chips müssen hier entwickelt werden und wenn man ein Zehnersystem

implementieren möchte, in so einem Chip braucht man viel, viel mehr Chipfläche, um die gleiche

sozusagen Funktionalität zur Verfügung zu stellen und damit gibt es immer den Kostendruck,

kleinere Chips, einfache Realisierung und das ist dann sozusagen die Spannungsfelde,

die Technik dann versuchen muss, so eine Lösung zu bekommen. Ja, was machen wir heute? Wir fangen

an mal mit positiven, negativen und reellen Zahlen und schauen mal, wie weit wir kommen.

Wahrscheinlich dann morgen logische Variablen und dann Kodierung der Zeichen.

Entschuldigung, ich bin ein bisschen erkältet. Also, die Verarbeitung und Speicherung von,

schauen wir mal, ob wir den Maus da noch ein bisschen wegkriegen, die Verarbeitung von

Zeichen im Rechner basiert darauf, dass wir immer Nullen und Einsen haben. Alles, was wir da stellen,

ob wir Zeichen, Zeichenketten, logisch variablen Zahlen da stellen, haben wir nur die Nullen

und Einsen zur Verfügung. Wir können aber Folgen davon bilden und diese Folgen benutzen

dann sozusagen als Nummer, als Ordinalzahl eine Information und sagen dann, wenn diese Zahl die

42 ist, dann ist vielleicht das 42ste Zeichen gemeint oder vielleicht auch die Integerzahl 42.

Und diese Nullen und Einsen realisieren daher, dass man technisch gesehen das als Spannung

realisieren kann, nämlich Spannung ein, aus Strom fließt, Strom fließt nicht. Und das ist sehr viel

einfacher elektrotechnisch festzustellen, ob sozusagen keine Spannung an nicht kein Strom

fließt oder ob vielleicht 0,5 Volt, 0,7 Volt, 0,9 Volt fließen. Also, man kennt nur diese beiden

Zustände, die sind klar zu trennen. Hätte man zehn verschiedene Spannungsebenen, mit denen man die

Daten darstellen wollte, dann wäre das technisch sehr viel schwieriger. Wir haben schon ein paar

Begriffe, die wir häufig verwenden, nämlich das Bit und das Byte und das Wort. Hier jetzt noch mal

nachträglich dann die Definition. Das Bit ist also die Kleinseinformationseinheit, mit der wir es

zu tun haben. Man unterscheidet zwei Zustände, Nullen und Eins, die kann man interpretieren als

Ja oder Nein, richtig oder falsch. Ein Byte ist dann eine Folge von 8 Bit. In der Informatik hat

sich die 2 eben sehr stark durchgesetzt. Das heißt, man gruppiert Mengen häufig in Zweiergröpchen

und 2 hoch 3 ist 8. Schon 2 hoch 8 ist 256 und diese 256 Zeichen, die haben ursprünglich mal

ausgereicht, um alles das zu codieren, was Telegrafen so alles gebraucht haben. Da gibt's,

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:27:21 Min

Aufnahmedatum

2011-05-24

Hochgeladen am

2018-05-07 14:49:37

Sprache

de-DE

Einführung in UNIX/Linux Einführung in die Programmierung mit Java Grundlagen der Rechnerarchitektur Programmiersprachen: von der Maschinensprache zur Objektorientierung Objektorientierte Programmierung Datenstrukturen und Algorithmen: Suchen und Sortieren, Listen, Keller, Bäume Internet, Verteilte Systeme

Einbetten
Wordpress FAU Plugin
iFrame
Teilen